La tecnología basada en Inteligencia Artificial lleva años desarrollándose, sin embargo, no ha sido hasta hace unos meses cuando ha empezado a ser tendencia, sobre todo desde el lanzamiento de ChatGPT-3 en noviembre de 2022. Tanto es el éxito que los modelos de IA están teniendo que Bill Gates ha admitido que cree que nos encontramos ante una nueva era tecnológica y que no veía nada igual desde la creación de la interfaz gráfica.
La revolución de la IA es un hecho, pero no todos ven con tan buenos ojos como los de Gates este avance repentino. Hace unas semanas, Elon Musk y otros expertos del sector firmaron una solicitud en la que pedían a las empresas de las principales IAs a frenar su entrenamiento para sentar unas bases regulatorias.
Al ser un campo totalmente desconocido, la creación de IA carece de normas y eso ha dado carta blanca a las compañías a desarrollar herramientas de dudosa ética. En este artículo, recordamos algunos casos que han generado debate estos últimos meses y que podrían darle la razón a Musk y al resto de firmantes sobre la necesidad de un parón.
En un examen de codificación
Pese a que Google cuente con Bard, su propio chatbot inteligente, parece que la NBC informó que la firma había probado ChatGPT para usarlo para codificador. En una ‘entrevista’ a la IA de OpenAI, el gigante tecnológico descubrió que podía pasar con éxito un examen para ser contratado en nivel 3 para un puesto de codificación.
Son muchos los expertos que señalan que ChatGPT como programador deja bastante que desear, pero el ensayo de Google lo pone en duda. El puesto para el que la IA podría acceder tiene un salario anual promedio de 183.000 dólares.
En un juicio
Recientemente, conocimos la intención de DoNotPay, una empresa que usa una IA como asesor legal, de utilizar su tecnología en dos juicios por multas de tráfico. No terminó llevándose a cabo por motivos legales, pero eso no significa que este tipo de tecnología no haya hecho acto de presencia en un tribunal.
Juan Manuel Padilla García, un juez en Colombia, optó por recurrir a ChatGPT para tomar una decisión judicial sobre el seguro médico de un niño autista. «Lo que realmente buscamos es optimizar el tiempo de redacción de sentencias tras corroborar la información proporcionada por la IA», defendía el profesional.
Como redactor de guiones
La IA también ha amenazado puestos de trabajo creativos, como es el caso de los guionistas. La startup Deepmind lanzó recientemente una herramienta conocida como Dramatron, que es capaz de generar «descripciones de personajes, puntos de la trama, descripciones de ubicaciones y diálogos». Esto deja en segundo lugar a los redactores, que podrían verse perjudicados.
Como actor de doblaje
En 20BITS, hablamos hace ya unos meses con Ale Graue, un actor de voz argentino cuyo caso se viralizó en Twitter. Según explicaba, en uno de los proyectos en los que participaba habían decidido prescindir de él y reemplazarlo por una IA.
«Básicamente, era un canal de YouTube en inglés que comenzó a doblar su contenido al español neutral, de Latinoamérica -comentaba-. El proyecto estaba yendo muy bien. Pero vi que subieron un vídeo nuevo y me extrañó porque yo no había doblado nada nuevo. Cuando entré a escucharlo, me di cuenta de que estaba doblado con una Inteligencia Artificial«.
Como periodistas
Las noticias de las que te estás informando podrían no haber sido redactadas por personas, sino por IAs. Uno de los casos recientes más sonados es el de CNET que confesó que había usado una de estas herramientas para crear publicaciones de temas financieros. La gravedad de ello es que los artículos estaban llenos de inexactitudes y de plagio.
Recomendaciones de inversiones
En The Morning Brief, hablan de la IA como «máquina de exageraciones del mercado de valores». Seguro que hay quién decide pedir consejo a una de estas herramientas entrenadas para saber dónde invertir, sin embargo, sus recomendaciones pueden no ser acertadas.
IA para el espionaje
En Rusia, según Wired, se está empleando sistemas de IA en las cámaras de seguridad para controlar a sus ciudadanos.